开始跟着B站上学习爬虫,使用的工具是PyCharm。
视频链接:https://b23.tv/NLp4gz6?share_medium=android&share_source=qq&bbid=XYC5605C8F19F10D959B8A59F386FD514EF41&ts=1640697988835
爬虫代码如下:
# -*- coding: utf-8 -*-
# 爬虫:本质是通过 编写程序 来获取到互联网上的资源
# 百度
# 需求:用程序模拟浏览器,输入一个网址,从该网址中获取到资源或内容
from urllib.request import urlopen # request表示请求库, urlopen打开一个网址
url = "http://www.baidu.com"
resp = urlopen(url) # 打开网址,得到响应
# resp.read() # 从响应中读取内容
# print(resp.read()) # b''表示字节
# print(resp.read().decode("utf-8"))
with open("mybaidu.html", mode="w") as f:
f.write(resp.read().decode("utf-8"))
print("over!")
运行成功后,打开爬取到的html页面: 会发现里面的中文是乱码。 原本乱码的地方应该是中文: 但该页面在记事本中打开却可以呈现出中文: ![在这里插入图片描述](https://img-blog.csdnimg.cn/064c4af855ab486bb9edca5ad03f1498.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBATHZjeA==,size_20,color_FFFFFF,t_70,g_se,x_16)
那么该如何解决它在PyCharm中显示的是乱码问题呢?
踩过的小坑:
首先根据网上的更改settings的方式: 发现仍然没有效果。再根据网上说的将mode="w"改成mode=“wb”: 仍然不行。然后想到将decode(“utf-8”)去掉: 但是,又会报错: write()函数w模式下只能写入字符串数据,而不能写入字节类型的数据。
最终的解决办法:
最后想到去掉decode(“utf-8”)的同时,再将w模式改成wb模式,wb模式写入的就是字节类型。 最后成功解决了爬取下来的页面在PyCharm中是中文乱码的问题。 ![在这里插入图片描述](https://img-blog.csdnimg.cn/64025b1e3cd64d75bfed02ce53bb0a3c.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBATHZjeA==,size_20,color_FFFFFF,t_70,g_se,x_16)
|